7 research outputs found

    T脡CNICAS PARA CONTRARRESTAR LA P脡RDIDA DE VARIABILIDAD EN UN UMDA

    Get PDF
    Debido a la naturaleza de su proceso de aprendizaje, los algoritmos de estimaci贸n de la distribuci贸n (conocidos como EDA) han padecido, desde sus primeras implementaciones, de problemas de variabilidad (respecto a las soluciones utilizadas en su proceso de optimizaci贸n); lo que conlleva a estancamientos en 贸ptimos locales o lentitud para encontrar la soluci贸n 贸ptima. Diversos m茅todos y t茅cnicas han sido implementados en estos algoritmos que reducen, y en algunos casos anulan, dicho problema. El UMDA (Univariate Marginal Distribution Algorithm), es la implementaci贸n m谩s simple de un EDA; al asumir independencia entre sus variables, simplifica la estimaci贸n de la distribuci贸n de las soluciones en el producto de las probabilidades marginales. La aleatoriedad de la primera poblaci贸n y el n煤mero de individuos utilizados para estimar la distribuci贸n son factores que influyen en la variabilidad del algoritmo. Este art铆culo presenta un an谩lisis comparativo entre los m茅todos que tratan este problema, involucrando cuatro de los m谩s utilizados en la literatura y dos m谩s propuestos por los autores. Tambi茅n se presenta un an谩lisis de la influencia en la variabilidad de un UMDA de los par谩metros utilizados en los operadores de selecci贸n y remplazamiento.

    T脡CNICAS PARA CONTRARRESTAR LA P脡RDIDA DE VARIABILIDAD EN UN UMDA

    No full text
    Debido a la naturaleza de su proceso de aprendizaje, los algoritmos de estimaci贸n de la distribuci贸n (conocidos como EDA) han padecido, desde sus primeras implementaciones, de problemas de variabilidad (respecto a las soluciones utilizadas en su proceso de optimizaci贸n); lo que conlleva a estancamientos en 贸ptimos locales o lentitud para encontrar la soluci贸n 贸ptima. Diversos m茅todos y t茅cnicas han sido implementados en estos algoritmos que reducen, y en algunos casos anulan, dicho problema. El UMDA (Univariate Marginal Distribution Algorithm), es la implementaci贸n m谩s simple de un EDA; al asumir independencia entre sus variables, simplifica la estimaci贸n de la distribuci贸n de las soluciones en el producto de las probabilidades marginales. La aleatoriedad de la primera poblaci贸n y el n煤mero de individuos utilizados para estimar la distribuci贸n son factores que influyen en la variabilidad del algoritmo. Este art铆culo presenta un an谩lisis comparativo entre los m茅todos que tratan este problema, involucrando cuatro de los m谩s utilizados en la literatura y dos m谩s propuestos por los autores. Tambi茅n se presenta un an谩lisis de la influencia en la variabilidad de un UMDA de los par谩metros utilizados en los operadores de selecci贸n y remplazamiento.

    Aprendizaje mediante enlace Gen茅tico

    No full text
    En este art铆culo mostraremos la conveniencia de emplear aprendizaje mediante enlace gen茅tico como alternativa en mejorar los recorridos y trayectorias de b煤squedas de los cromosomas. Mostraremos las distintas formas de representaci贸n que se han estudiado, haciendo un 茅nfasis en los mecanismos de evoluci贸n de los mismos

    Probabilistic graphical Markov model learning: an adaptive strategy

    Full text link
    In this paper an adaptive strategy to learn graphical Markov models is proposed to construct two algorithms. A statistical model complexity index (SMCI) is defined and used to classify models in complexity classes, sparse, medium and dense. The first step of both algorithms is to fit a tree using the Chow and Liu algorithm. The second step begins calculating SMCI and using it to evaluate an index (EMUBI) to predict the edges to add to the model. The first algorithm adds the predicted edges and stop, and the second, decides to add an edge when the fitting improves. The two algorithms are compared by an experimental design using models of different complexity classes. The samples to test the models are generated by a random sampler (MSRS). For the sparse class both algorithms obtain always the correct model. For the other two classes, efficiency of the algorithms is sensible to complexity

    Mecanismos de Aceleraci贸n en Selecci贸n de Caracter铆sticas Basada en el Peso Informacional de las Variables para Aprendizaje no Supervisado

    No full text
    La presente investigaci贸n, se ubica en el 谩rea de la Inteligencia Artificial conocida como selecci贸n de caracter铆sticas (SSC) en aprendizaje no supervisado (ANS) haciendo uso de un algoritmo gen茅tico, modificado con un nuevo operador especial para el problema de selecci贸n de subconjuntos de caracter铆sticas denominado "operador gen茅tico de aceleraci贸n". Este operador reduce los tiempos desde horas o d铆as a minutos. La metodolog铆a dise帽ada, realiza selecci贸n de caracter铆sticas de forma que se conserva la representatividad del conjunto de datos original, pero reduciendo el tama帽o de 茅ste, facilitando su manejo y minimizando los costos de manipulaci贸n. 脡sto, para encontrar agrupaciones tanto de casos como de variables utilizando el peso informacional de las mismas. Las principales aportaciones de la metodolog铆a reportada, son el operador de aceleraci贸n, el mecanismo de mejoramiento en el proceso de b煤squeda de testores t铆picos en una Matriz B谩sica obtenida a partir de una base de datos y la flexibilidad del marco de trabajo, ya que es tan robusto, que se adapta a problemas de SSC en aprendizaje supervisado tanto como en ANS; reportando una considerable reducci贸n de tiempo adem谩s de la obtenci贸n de elementos para la toma de decisiones importantes en base a la agrupaci贸n de casos y variables
    corecore